我们考虑多级分类的问题,其中普遍选择的查询流到达,并且必须在线分配标签。与寻求最小化错误分类率的传统界定不同,我们将每个查询的总距离最小化到与其正确标签相对应的区域。当通过最近的邻分区确定真正的标签时 - 即点的标签由它最接近欧几里德距离所提供的点,我们表明人们可以实现独立的损失查询总数。我们通过显示学习常规凸集每查询需要几乎线性损耗来补充此结果。我们的结果为语境搜索的几何问题而被遗憾地构建了遗憾的保证。此外,我们制定了一种从多字符分类到二进制分类的新型还原技术,这可能具有独立兴趣。
translated by 谷歌翻译
在本文中,我们调查了如何在重复的上下文首次价格拍卖中出价的问题。我们考虑一个投标人(学习者)在第一个价格拍卖中反复出价:每次$ t $,学习者都会观察上下文$ x_t \ in \ mathbb {r} ^ d $,并根据历史信息决定出价$ x_t $。我们假设所有其他人的最大出价的结构化线性模型$ m_t = \ alpha_0 \ cdot x_t + z_t $,其中$ \ alpha_0 \ in \ mathbb {r} ^ d $对学习者未知,$ z_t $随机地从噪声分布$ \ mathcal {f} $上采样,使用log-tym-tangave密度函数$ f $。我们考虑\ emph {二进制反馈}(学习者只能观察她是否赢)和\ emph {完全信息反馈}(学习者可以在每次$ t $的末尾观察$ m_t $)。对于二进制反馈,当噪声分布$ \ mathcal {f} $时,我们提出了一种竞标算法,通过使用最大似然估计(MLE)方法来实现至多$ \ widetilde {o}(\ sqrt {\ log( d)t})$后悔。此外,我们将该算法概括为具有二进制反馈的设置,并且噪声分布未知,但属于参数化分布。对于具有\ EMPH {Unknown}噪声分布的完整信息反馈,我们提供了一种算法,它在大多数$ \ widetilde {o}(\ sqrt {dt})$上实现后悔。我们的方法将估计器组合了对数凹入密度函数,然后将MLE方法同时学习噪声分布$ \ mathcal {f} $和线性重量$ \ alpha_0 $。我们还提供了一个下限的结果,使得广泛课堂上的任何竞标政策必须至少为\ omega(\ sqrt {t})$而遗憾,即使学习者收到完整信息反馈和$ \ mathcal {f} $已知。
translated by 谷歌翻译
Transformers-based models, such as BERT, have been one of the most successful deep learning models for NLP. Unfortunately, one of their core limitations is the quadratic dependency (mainly in terms of memory) on the sequence length due to their full attention mechanism. To remedy this, we propose, BIGBIRD, a sparse attention mechanism that reduces this quadratic dependency to linear. We show that BIGBIRD is a universal approximator of sequence functions and is Turing complete, thereby preserving these properties of the quadratic, full attention model. Along the way, our theoretical analysis reveals some of the benefits of having O(1) global tokens (such as CLS), that attend to the entire sequence as part of the sparse attention mechanism. The proposed sparse attention can handle sequences of length up to 8x of what was previously possible using similar hardware. As a consequence of the capability to handle longer context, BIGBIRD drastically improves performance on various NLP tasks such as question answering and summarization. We also propose novel applications to genomics data.
translated by 谷歌翻译
Neural networks have revolutionized the area of artificial intelligence and introduced transformative applications to almost every scientific field and industry. However, this success comes at a great price; the energy requirements for training advanced models are unsustainable. One promising way to address this pressing issue is by developing low-energy neuromorphic hardware that directly supports the algorithm's requirements. The intrinsic non-volatility, non-linearity, and memory of spintronic devices make them appealing candidates for neuromorphic devices. Here we focus on the reservoir computing paradigm, a recurrent network with a simple training algorithm suitable for computation with spintronic devices since they can provide the properties of non-linearity and memory. We review technologies and methods for developing neuromorphic spintronic devices and conclude with critical open issues to address before such devices become widely used.
translated by 谷歌翻译
在启用语音的应用程序中,一个预定的热词在同时用来激活设备以便进行查询。 toavoid重复一个热词,我们提出了一个端到端的流(E2E)打算查询检测器,该查询检测器识别向设备指向的发音,并滤除针对设备的其他发出内容。提出的方法将预期的查询检测器置于E2E模型中,该模型将语音识别的不同组件折叠成一个神经网络。E2E对台面解码和预期的查询检测进行建模,也使我们可以基于早期的部分偏置检测结果, ,这对于减少潜伏期和使系统响应很重要。我们证明,与独立的预期检测器相比,检测准确性和600个MSLATENCE的相对相对改善的相对提高一级误差率(EER)的相对提高了22%。在我们的实验中,提出的模型检测用户正在用用户开始讲话后,用8.7%的Eerwithin与设备进行对话。
translated by 谷歌翻译
最近已经提出了与紧急磁化动态的互连磁纳环阵列用于储层计算应用,但是对于它们进行计算有用,必须可以优化其动态响应。在这里,我们使用一种现象学模型来证明可以通过调整使用旋转磁场将数据的缩放和输入速率控制到系统中的超级参数来优化这些储存器。我们使用任务独立的指标来评估每组上的这些超参数的戒指的计算能力,并展示这些指标如何直接关联与口头和书面识别任务中的性能相关联。然后,我们通过扩展储库的输出来包括环阵列磁态的多个并发度量,可以进一步改善这些度量。
translated by 谷歌翻译
由于其在虚拟化设置中为客户提供了现实,个性化的产品演示,虚拟试验系统潜入了很大的关注。在本文中,我们呈现PT-VTON,一种基于布料的新型姿势转移框架,可以使用任意姿势进行虚拟试验。PT-VTON可以应用于时尚行业的现有系统的最小修改,同时满足整体视觉时尚性和详细的面料外观要求。它使得能够在模型和用户图像之间传输有效的衣服,具有任意姿势和身体形状。我们实施PT-VTON的原型,并证明我们的系统在面对姿势的剧烈变化时,我们的系统可以通过保留详细的人和织物特征出现而匹配或超越许多其他方法。PT-VTON显示在基于机器的定量度量和定性结果的替代方法。
translated by 谷歌翻译